Psychologie Lexikon der Argumente

Home Screenshot Tabelle Begriffe

 
Tiefes Lernen: Deep Learning ist eine Art des maschinellen Lernens, bei dem künstliche neuronale Netze verwendet werden, um aus Daten zu lernen. Künstliche neuronale Netze orientieren sich an der Struktur und Funktion des menschlichen Gehirns und sind in der Lage, komplexe Muster aus Daten zu erkennen. Siehe auch Maschinelles Lernen, Lernen, Künstliche Intelligenz.

_____________
Anmerkung: Die obigen Begriffscharakterisierungen verstehen sich weder als Definitionen noch als erschöpfende Problemdarstellungen. Sie sollen lediglich den Zugang zu den unten angefügten Quellen erleichtern. - Lexikon der Argumente.

 
Autor Begriff Zusammenfassung/Zitate Quellen

Alison Gropnik über Deep Learning – Lexikon der Argumente

Brockman I 224
Deep Learning/Gropnik:
A. Deep Learning von unten nach oben (bottom-up): In den 1980er Jahren entwickelten Informatiker eine geniale Art und Weise, wie Computer dazu gebracht werden konnten, Muster in Daten zu erkennen: konnektionistische, oder neuronale Netzwerk-, Architektur (der "neuronale" Teil war und ist metaphorisch). Der Ansatz geriet in den 1990er Jahren in eine Flaute, wurde aber erst kürzlich mit leistungsstarken "Deep-Learning"-Methoden wie Googles DeepMind wiederbelebt. Geben Sie dem Programm z.B. eine Reihe von Internetbildern mit dem Label "Katze" etc. Das Programm kann diese Informationen verwenden, um neue Bilder korrekt zu labeln.
Unüberwachtes Lernen: kann Daten ohne jegliche Labels erkennen; diese Programme suchen einfach nach Merkmalsclustern (Faktorenanalyse).
Verstärkungslernen: In den 1950er Jahren programmierte B. F. Skinner, aufbauend auf der Arbeit von John Watson, bekannterweise Tauben, um komplizierte Aktionen durchzuführen (...), indem er ihnen einen bestimmten Zeitplan von Belohnungen und Strafen vorgab. Die wesentliche Idee war, dass Handlungen, die belohnt wurden, wiederholt werden und solche, die bestraft werden, nicht, bis das gewünschte Verhalten erreicht ist. Selbst zu Skinners Zeiten konnte dieser einfache Prozess, der immer wieder wiederholt wird, zu einem komplexen Verhalten führen. >Konditionierung
.
So nutzten beispielsweise die Forscher von Googles DeepMind eine Kombination aus Deep Learning und Verstärkungslernen, um einem Computer das Spielen von Atari-Videospielen beizubringen. Der Computer wusste nichts darüber, wie die Spiele funktionieren.
Brockman I 225
Diese Bottom-up-Systeme können sich zu neuen Beispielen verallgemeinern; sie können ein
Brockman I 226
neues Bild meist ziemlich zuverlässig als Katze labeln. Aber sie tun dies auf eine Weise, die sich von der Art und Weise unterscheidet, wie Menschen verallgemeinern. Einige Bilder, die fast identisch mit einem Katzenbild sind, werden von uns überhaupt nicht als Katzen identifiziert. Andere, die wie eine zufällige Unschärfe aussehen, werden identifiziert.

B. Bayessche Modelle - von oben nach unten (top-down): Die ersten Versuche, diesen Ansatz zu nutzen, sahen sich mit zwei Arten von Problemen konfrontiert.
1. Die meisten Beweismuster könnten im Prinzip durch viele verschiedene Hypothesen erklärt werden: Es ist möglich, dass meine Journal-E-Mail-Nachricht echt ist, es scheint aber einfach nicht wahrscheinlich.
2. Woher kommen überhaupt die Begriffe, die die generativen Modelle verwenden? Platon und Chomsky sagten, dass man mit ihnen geboren wurde. Aber wie können wir erklären, wie wir die neuesten Begriffe der Wissenschaft lernen?
Lösung: Bayessche Modelle kombinieren generative Modelle und Hypothesentests.
>Bayesianismus.
Mit einem Bayesschen Modell können Sie berechnen, wie wahrscheinlich es ist, dass eine bestimmte Hypothese angesichts der Daten wahr ist. Und indem wir kleine, aber systematische Anpassungen an den bereits vorhandenen Modellen vornehmen und diese mit den Daten testen, können wir manchmal neue Konzepte und Modelle aus alten erstellen.
Brockman I 227
VsBaysianismus: Die Bayesschen Techniken können Ihnen helfen, zu wählen, welche von zwei Hypothesen wahrscheinlicher ist, aber es gibt fast immer eine enorme Anzahl von möglichen Hypothesen, und kein System kann sie alle effizient berücksichtigen. Wie entscheiden Sie, welche Hypothesen es wert sind, überhaupt getestet zu werden?
Top-Down-Methode: So haben z.B. Brenden Lake von der New York University und Kollegen mit Top-Down-Methoden ein Problem gelöst, das für Menschen einfach, aber für Computer extrem schwierig ist: das Erkennen unbekannter handschriftlicher Zeichen.
Bottom-up-Methode: Diese Methode gibt dem Computer Tausende von Beispielen (...) und lässt ihn die wichtigsten Merkmale herausziehen.
Top-down-Methode: Lake et al. gaben dem Programm ein allgemeines Modell, wie man ein Zeichen zeichnet: Ein Strich geht nach rechts oder links; nachdem du einen beendet hast, fängst du einen anderen an; und so weiter. Wenn das Programm ein bestimmtes Zeichen sah, konnte es die Reihenfolge der Striche ableiten, die am ehesten zu ihm geführt haben (...). Dann konnte es beurteilen, ob ein neuer Charakter wahrscheinlich aus dieser Sequenz oder aus einer anderen resultieren würde, und es konnte selbst einen ähnlichen Satz von Strichen erzeugen. Das Programm funktionierte viel besser als ein Deep-Learning-Programm, das auf genau die gleichen Daten angewendet wurde, und es spiegelte die Leistung des Menschen wider.
Brockman I 228
Bottom-up: Hier braucht das Programm anfangs nicht viel Wissen, aber viele Daten, und es kann nur bedingt verallgemeinern.
Top-down: Hier kann das Programm aus nur wenigen Beispielen lernen und viel breitere und vielfältigere Generalisierungen erzeugen, aber man muss zunächst viel mehr einbauen.
Brockman I 229
Lernen bei Kindern/Gropnik: (...) das wirklich Bemerkenswerte an Menschenkindern ist, dass sie irgendwie die besten Eigenschaften jedes Ansatzes kombinieren und dann weit über sie hinausgehen. In den letzten fünfzehn Jahren haben Entwicklungswissenschaftler untersucht, wie Kinder Struktur aus Daten lernen. Vierjährige können lernen, indem sie, wie bei einem Top-down-System, nur ein oder zwei Datenbeispiele nehmen und zu sehr unterschiedlichen Begriffen generalisieren. Aber sie können auch neue Konzepte und Modelle aus den Daten selbst lernen, wie es ein Bottom-up-System tut. Kleine Kinder lernen schnell abstrakte, intuitive Theorien der Biologie, Physik und Psychologie ganz ähnlich wie es erwachsene Wissenschaftler tun, selbst mit relativ wenigen Daten.


Gropnik, Alison “AIs versus Four-Year-Olds”, in: Brockman, John (ed.) 2019. Twenty-Five Ways of Looking at AI. New York: Penguin Press.

_____________
Zeichenerklärung: Römische Ziffern geben die Quelle an, arabische Ziffern die Seitenzahl. Die entsprechenden Titel sind rechts unter Metadaten angegeben. ((s)…): Kommentar des Einsenders. Übersetzungen: Lexikon der Argumente
Der Hinweis [Begriff/Autor], [Autor1]Vs[Autor2] bzw. [Autor]Vs[Begriff] bzw. "Problem:"/"Lösung", "alt:"/"neu:" und "These:" ist eine Hinzufügung des Lexikons der Argumente.
Gropnik, Alison

Brockman I
John Brockman
Possible Minds: Twenty-Five Ways of Looking at AI New York 2019

Send Link
> Gegenargumente gegen Gropnik
> Gegenargumente zu Deep Learning

Autoren A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z  


Begriffe A   B   C   D   E   F   G   H   I   J   K   L   M   N   O   P   Q   R   S   T   U   V   W   Z